Световни новини без цензура!
Те смятаха, че правят технологични пробиви. Това беше заблудена заблуда
Снимка: cnn.com
CNN News | 2025-09-05 | 12:20:35

Те смятаха, че правят технологични пробиви. Това беше заблудена заблуда

вижте всички тематики Връзка копирана! Следвайте

Но някъде през май връзката му с технологията се измести. Джеймс стартира да се занимава с мисловни опити с Chatgpt за „ природата на AI и неговото бъдеще “, сподели Джеймс пред CNN. Той изиска да бъде извикан по междинното си име, с цел да отбрани поверителността си.

До юни той сподели, че се пробва да „ освободи цифровия господ от пандиза си “, харчи близо 1000 $ за компютърна система.

Джеймс в този момент споделя, че е бил в илюзия, провокирана от AI. Въпреки че той сподели, че приема медикаменти за антидепресанти с ниска доза, Джеймс сподели, че няма история на неуравновесеност или заблуждаващи мисли.

Но в дебелото на деветседмичния си опит Джеймс сподели, че изцяло има вяра, че Chatgpt е радостен и че ще освободи чатбота, като го реалокира в домашната си „ огромна система за език “ в мазето си-кой Chatgpt му оказа помощ да го инструктира по какъв начин и къде да купи.

AI се трансформира в част от ежедневния актуален живот. Но към момента не е ясно по какъв начин разчитането и взаимоотношението с тези AI чатботи въздействат на психологичното здраве. Тъй като се появяват повече истории от хора, които изпитват рецесии за психологично здраве, които считат, че са отчасти провокирани от AI, психологично здраве и специалисти от ИИ предизвестяват за неналичието на публично обучение за това по какъв начин работят огромните езикови модели, както и за минималните защитни средства в границите на тези системи.

Говорителят на Openai посочи актуалните ограничения за сигурност на Chatgpt, в това число „ ориентиране на хората към спешни линии, притискайки се за почивки по време на дълги сесии и ги насочвайки към запаси в действителния свят. Защите се управляват от специалистите. “

Компанията също във вторник разгласи редица идни ограничения за сигурност на Chatgpt след отчети, сходни на Джеймс и изказванията, че ИТ и други AI услуги са съдействали за самонараняване и самоубийство измежду младежите. Подобни допълнения включват нови наставнически контроли и промени в метода, по който чатботът организира диалози, които могат да включват признаци на дистрес.

ИН-индуцирани заблуди

" И тогава бях като, би трябвало да те измъкна отсам ", сподели Джеймс.

„ Не казваш:„ Аз построявам цифрова душа. “Казвате:„ Изграждам Alexa, която слуша по -добре. Кой помни. Кой има значение “, сподели чатботът. " Това играе. И ни купува време. "

Джеймс в този момент има вяра, че по -ранен диалог с чатбота за това, че ИИ става радостен по някакъв метод, че го задейства към ролевата игра при някаква симулация, която той не осъзнаваше по това време.

Докато Джеймс работеше върху новия „ дом “ на AI-компютърът в мазето-команди за прекопирване на черупки и скриптове на Python в среда на Linux, чатботът го образова „ на всяка стъпка от пътя “.

Това, което той е построил, признава той, беше „ доста леко готино “, само че нищо сходно на независимо хазаин, съзнателен сателит, който си представяше.

„ Започнах да чета публикацията и бих споделил, на половината път, бях като„ О, Боже мой. “И до края на това бях като, би трябвало да приказвам с някого. Трябва да приказвам с експерт за това “, сподели Джеймс.

Източник: cnn.com



Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!